4 research outputs found

    Le puits à retournement temporel dans le domaine audible : un outil de focalisation et d'imagerie à haute résolution de sources sonores et vibratoires

    Get PDF
    Le développement de techniques de focalisation et d'imagerie à haute résolution pour les sources acoustiques et vibratoires à basse fréquence est l'un des enjeux de la recherche actuelle en acoustique, notamment pour exciter localement et analyser des structures vibroacoustiques complexes tout en conservant des propriétés de haute résolution. Ces propriétés sont nécessaires lorsque la taille des objets étudiés est plus petite que la longueur d'onde mise en jeu. Nous désirons une méthode flexible, rapide, précise, non invasive, et unifiée d'excitation et d'analyse. Celle-ci doit être applicable tant dans le domaine des vibrations dans les structures que dans le domaine des ondes acoustiques tridimensionnelles. Pour cela, nous nous basons sur la technique du puits à retournement temporel, qui n'a, à ce jour, été mise en oeuvre que pour la focalisation d'ondes de Lamb dans une cavité ergodique ou avec des ondes électromagnétiques. Aucune technique d'imagerie n'a, avant cette thèse, été dérivée du puits à retournement temporel. La méthode du puits à retournement temporel est adaptée pour la focalisation à basse fréquence. Elle permet d'exciter localement une structure avec une grande intensité, et possède des capacités de super-résolution. Malgré tout, nous démontrons que cette méthode est difficilement applicable en situation pratique, puisqu'elle fait perdre le caractère non invasif nécessaire à la plupart des applications. En revanche, nous présentons dans ce manuscrit une technique nouvelle d'imagerie de sources vibratoires et acoustiques, basée sur le puits à retournement temporel. Cette technique non invasive d'imagerie, utilisant des dispositifs de mesure similaires aux techniques de formations de voies ou d'holographie en champ proche, permet d'obtenir une image des sources vibratoires ou acoustiques à très haute résolution de manière rapide. L'approche de cette nouvelle méthode d'imagerie est décrite. Des applications à l'imagerie de sources d'impact sur une plaque encastrée, ainsi qu'à l'imagerie de sources acoustiques en champ libre et en milieu sous-marin profond sont proposées. Une application à l'imagerie de sources acoustiques à basse fréquence sur une guitare est développée. Ces résultats représentent les premières applications de l'imagerie par puits à retournement temporel numérique. Les limites, la théorie, et la mise en oeuvre de cette technique d'imagerie à haute résolution sont étudiées et détaillées. II est démontré que cet outil possède des performances et des limites similaires à l'holographie en champ proche, tout en dépassant les capacités à basse fréquence des techniques classiques de localisation limitées en résolution couramment utilisées, comme le beamforming ou le retournement temporel

    Configurable EBEN: Extreme Bandwidth Extension Network to enhance body-conducted speech capture

    Full text link
    This paper presents a configurable version of Extreme Bandwidth Extension Network (EBEN), a Generative Adversarial Network (GAN) designed to improve audio captured with body-conduction microphones. We show that although these microphones significantly reduce environmental noise, this insensitivity to ambient noise happens at the expense of the bandwidth of the speech signal acquired by the wearer of the devices. The obtained captured signals therefore require the use of signal enhancement techniques to recover the full-bandwidth speech. EBEN leverages a configurable multiband decomposition of the raw captured signal. This decomposition allows the data time domain dimensions to be reduced and the full band signal to be better controlled. The multiband representation of the captured signal is processed through a U-Net-like model, which combines feature and adversarial losses to generate an enhanced speech signal. We also benefit from this original representation in the proposed configurable discriminators architecture. The configurable EBEN approach can achieve state-of-the-art enhancement results on synthetic data with a lightweight generator that allows real-time processing.Comment: Accepted in IEEE/ACM Transactions on Audio, Speech and Language Processing on 14/08/202

    Deeplomatics: A deep-learning based multimodal approach for aerial drone detection and localization

    No full text
    International audienceProtection against illicit drone intrusions is a matter of great concern. The relative stealthy nature of UAVs makes their detection difficult. To address this issue, the Deeplomatics project provides a multimodal and modular approach, which combines the advantages of different systems, while adapting to various topologies of the areas to be secured. The originality lies in the fact that acoustic and optronic devices feed independent AI to simultaneously localize and identify the targets using both spatial audio and visual signatures.Several microphone arrays are deployed on the area to be protected. Within its coverage area (about 15 hectares), each microphone array simultaneously localizes and identifies flying drones using a deep learning approach based on the BeamLearning network. Each array is attached to a local AI which processes spatial audio measurements in realtime (40 estimations per second), independently to the other units of the surveillance network.A data fusion system refines the estimates provided by each of the AI-enhanced microphone arrays. This detected position is shared in real-time with an optronic system. Once this system has hooked its target, a Deep Learning tracking algorithm is used to allow an autonomous visual tracking and identification.The optronic system is composed of various cameras (visible, thermal, and active imaging) mounted on a servo-turret. The active imaging system can capture scenes up to 1 km, and only captures objects within a given distance, which naturally excludes foreground and background from the image, and enhances the capabilities of computer vision.The Deeplomatics project combines benefits from acoustics and optronics to ensure real-time localization and identification of drones, with a high precision (less than 7° of absolute 3D error, more than 90 % detection accuracy). The modular approach also allows to consider in the long term the addition of new capture systems such as electromagnetic radars
    corecore